1. Hadoop2组件启动关闭的三种方式
1.1. 方式一:各服务守护进程逐一启动关闭
在各节点上执行开启关闭自己的服务
- 例如:namenode节点执行 hadoop-daemon.sh start|stop namenode
- 例如:datanode 节点执行 hadoop-daemon.sh start|stop datanode
hdfs服务:
1 | hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode |
yarn服务:
1 | yarn-daemon.sh start|stop resourcemanager|nodemanager |
mapreduce服务:
1 | mr-jobhistory-daemon.sh start|stop historyserver |
1.2. 方式二:各个服务组件逐一启动关闭
hdfs服务:
1 | 只能在namenode执行以下命令(datanode、secondarynamenode没有权限) |
yarn服务:
1 | 只能在resourcemanager执行以下命令(nodemanager没有权限) |
mapreduce服务:因为只有一个守护进程,所以就是使用 mr-jobhistory-daemon.sh
1 | mr-jobhistory-daemon.sh start|stop historyserver |
1.3. 方式三:HDFS+YARN联合启动关闭
hdfs + yarn服务:
1 | start-all.sh # 相当于先后执行 start-dfs.sh 和 start-yarn.sh |
mapreduce服务:单独使用mr-jobhistory-daemon.sh
1 | mr-jobhistory-daemon.sh start|stop historyserver |
注意:start-all.sh/stop-all.sh 不建议使用。因为执行的前提是当前节点既是namenode,又是resourcemanager。但是实际不可能将namenode和resourcemanager放在一个节点上,倘若这个节点挂了,那么HDFS和YARN就都挂了。